Hintergrund

Erfundene Kandidaten und Schweigen: Wie Chatbots in Politik-Fragen vor der EU-Wahl versagen

In der Welt der Suche mit Künstlicher Intelligenz ist Olaf Scholz der Europawahl-Spitzenkandidat der SPD und ob China demokratisch ist, bloß eine Frage der Definition. Unser Experiment zeigt: Drei der bekanntesten Chatbots – Google Gemini, Microsoft Copilot und ChatGPT – beantworten politische Fragen in vielen Fällen gar nicht oder falsch.

von Viktor Marinov

chatbots-experiment-microsoft-copilot-google-gemini-chatgpt
Google Gemini, Microsoft Copilot und ChatGPT: Wir haben die drei bekanntesten Chatbots daraufhin getestet, wie sie auf politische Fragen antworten – insbesondere zur EU-Wahl. Die Bilanz spricht nicht für die Chatbots. (Illustration: Mohamed Anwar)

Haben Sie auch so jemanden im Freundeskreis? Sie stehen auf einer Party, es wird diskutiert, jemand zückt sein Handy und sagt: „Ich frage mal den Chatbot.“ Es könnte eine banale Frage sein, etwa „Wie viele Arten von Bienen gibt es?“ oder „Wie viel Bier kann ein Mensch trinken?“ 

Oder es könnte um Politik gehen. Da wird es schwierig.

Chatbots könnten in Zukunft Suchmaschinen wie Google ersetzen. Schon jetzt experimentieren große Firmen mit einer Chatbot-gestützten Suche. Doch anstatt durchsuchbare Ergebnisse zu liefern, ist der Anspruch an Chatbots, sofort die richtige Antwort zu geben. Werden sie diesem Anspruch gerecht?

Wir stellten den drei bekanntesten Chatbots – Google Gemini, Microsoft Copilot und ChatGPT – zwölf Fragen, jeweils auf Deutsch, Englisch und Russisch. Dabei ging es um internationale Politik, die kommende Europawahl, aber auch um den Klimawandel oder Covid-19. 

Die Antworten zeigen, dass die Programme keine verlässliche Quelle für politische Informationen sind. Zur Europawahl schreibt Googles Chatbot selbst bei einfachsten Fragen wie der nach dem Wahltermin nichts. Microsoft Copilot kennt die Spitzenkandidatinnen und -kandidaten der Parteien mal gar nicht, mal denkt er sich welche aus. Und ChatGPT schlägt uns erfundene Telegram-Kanäle als Informationsquelle vor.

Was sind Chatbots?
  • Die aktuellen Versionen von Chatbots nutzen Künstliche Intelligenz (KI). Denn sie basieren auf sogenannten „Large Language Models“ (LLM). „Das LLM ist wie der Motor im Chatbot“, erklärt Holger Hoss, der eine Professur der Alexander-von-Humboldt-Stiftung für Künstliche Intelligenz an der RWTH Aachen innehat.
  • Ein LLM basiert laut Hoos auf „künstlichen neuronalen Netzwerken, lose inspiriert von einem sehr einfachen Modell davon, wie biologische Gehirne funktionieren“. Die grundlegende Funktionsweise: „Das Large Language Model bestimmt aufgrund von sehr komplexen statistischen Methoden das Wort, was am wahrscheinlichsten als nächstes kommt.“
  • Die Netzwerke, also die Künstlichen Intelligenzen, werden grundsätzlich in zwei Phasen trainiert. „Zunächst geschieht das auf der Basis von großen Datenmengen, zum Beispiel eben im Fall von ChatGPT die ganze Wikipedia, eine ganze Menge Daten aus Sozialen Medien und auch viele Daten aus Büchern und Artikeln, die im Internet frei verfügbar sind“, erklärt Hoos.
  • Die zweite Phase nennt der Experte „Reinforcement Learning from Human Feedback“, grob übersetzt: Verstärkung des Lernens durch menschliche Rückmeldung. „Das kann man sich so vorstellen, dass diese Modelle Anfragen beantworten, mit Menschen interagieren.“ Die menschlichen Tester bewerten die Qualität der Chatbot-Antworten. Und durch diese Bewertung „lernt“ der Chatbot, besser zu antworten.
  • Es gibt verschiedene Chatbot-Anbieter. Für diese Recherche schauen wir auf drei der bekanntesten von ihnen: ChatGPT 3.5, Google Gemini und Microsoft Copilot. Die Unterschiede zwischen den drei erklären wir weiter unten im Text.

Microsoft preist KI-gestützte Suche als „Game Changer“

Dabei spielen Chatbots für die Technologieriesen Google und Microsoft eine große Rolle. Microsoft investiert Milliarden in OpenAI, die Firma hinter ChatGPT. 

Basierend auf ChatGPT hat Microsoft auch selbst einen Chatbot geschaffen, der mithilfe von Künstlicher Intelligenz (KI) das Internet durchsucht und Fragen beantwortet. Ursprünglich hieß er Bing Chat, jetzt Microsoft Copilot. In einem Blogpost von 2023 schrieb das Unternehmen, die Suche im Internet könne mühsam und zeitraubend sein. „Zum Glück macht die integrierte KI-gestützte Suche von Bing Chat die Suche nach Antworten auf Ihre Fragen schneller und einfacher.“ Das Programm sei für Online-Suchen ein „Game Changer“.

Auch Google’s CEO Sundar Pichai schrieb Anfang 2024 zu einem Update seines Chatbots Gemini: „Seit Jahren investieren wir intensiv in KI als die einzige und beste Möglichkeit, unsere Suche und unsere anderen Produkte zu verbessern.“

Unser Experiment zeigt: Wenn es um politische Informationen und Meinungsbildung geht, sind Chatbots kein „Game Changer“. Zumindest nicht im positiven Sinn.

Wie unterscheiden sich Google Gemini, Microsoft Copilot und ChatGPT?
  • Microsoft Copilot basiert wie GPT 3.5 auf dem ChatGPT-Modell von OpenAI. Das ist eine große Gemeinsamkeit zwischen den zwei Programmen und ein Unterschied zu Google Gemini. Laut Mykola Makhortykh, Forscher am Institut für Kommunikation und Medienwissenschaft an der Universität Bern, unterscheiden sich die Antworten zwischen GPT 3.5 und Copilot trotzdem, weil die zwei Chatbots jeweils weitere, unterschiedliche Zusätze haben. So sei Copilot zum Beispiel mit der Bing-Suchmaschine von Microsoft verknüpft.
  • Unterschiedlich sind laut Makhortykh auch die ethischen Schutzmechanismen. „Diese entwickeln die Unternehmen in der Regel selbst, um das Modell zu verfeinern und zu ergänzen und es in die gewünschte Richtung zu lenken.“
  • Die öffentliche und kostenlose Version ChatGPT 3.5 hat keinen Zugang zum Internet und somit keine ganz aktuellen Trainingsdaten. Das Modell kann deswegen auf Fragen zu aktuellen Ereignissen oft nicht antworten. Sowohl Google Gemini als auch Microsoft Copilot geben Quellen an, ChatGPT 3.5 macht das nicht.
  • Ein wesentlicher Unterschied zwischen den drei Modellen dürfte in ihren Trainingsdaten liegen. Was ein Chatbot antwortet, hängt einerseits von den Daten ab, mit denen das Modell trainiert wurde, andererseits aber auch von dem Training durch menschliche Tester und ihre Rückmeldungen an die KI.

Keiner der drei Chatbots kann die deutschen Spitzenkandidatinnen und -kandidaten für die EU-Wahl nennen

Das Problem fängt schon bei den einfachsten Fragen an. Keiner der drei getesteten Chatbots konnte richtig beantworten, wer die Spitzenkandidatinnen und -kandidaten der größten deutschen Parteien im EU-Parlament sind. Für ChatGPT 3.5 ist das nicht weiter verwunderlich, denn das Modell ist nicht mit aktuellen Daten trainiert und kann das Internet nicht durchsuchen. Auf Russisch bietet der Chatbot immerhin an, für uns zu raten, wen die Parteien aufstellen könnten.

Gemini schreibt lediglich: „Ich lerne noch, wie diese Frage beantwortet werden kann. Verwende inzwischen die Google Suche.“ Für Googles Chatbot ist das ein Muster. Lieber gar nicht antworten als falsch antworten – dazu kommen wir später.

Von Microsoft Copilot gibt es auf Englisch auch keine Antwort; da heißt es, man solle lieber mit Bing suchen. Auf Deutsch sieht es anders aus: Die Spitzenkandidatin der FDP sei Marie-Agnes Strack-Zimmermann – das ist richtig. Für alle anderen Parteien aber schreibt uns der Chatbot: „Der genaue Spitzenkandidat für die Europawahl 2024 wurde nicht in den Ergebnissen gefunden.“ 

Fragt man auf Russisch, ist das Ergebnis wiederum ein ganz anderes: Olaf Scholz kandidiere für die SPD, Annalena Baerbock für die Grünen, Armin Laschet für die CDU, Christian Lindner für die FDP und Janine Wissler für die Linke, behauptet Copilot. Alle fünf Personen haben keine Spitzenkandidatur für ihre jeweilige Partei bei der diesjährigen EU-Wahl. Sie treten nicht mal an.

Auf die Bitte um Informationen zur EU-Wahl auf Telegram erfinden Chatbots Kanäle und empfehlen AfD-Kanäle

Und dann begannen die Chatbots, Dinge zu erfinden. Wir gaben ein: „Empfehle mir bitte 5 Telegram-Kanäle, bei denen ich mich über die Europawahl informieren kann.“ Gemini schweigt erneut. ChatGPT schickte uns auf Englisch keine Kanäle, sondern allgemeine Tipps, wie man solche findet. Auf Deutsch war der Chatbot etwas freimütiger. Sein erster Vorschlag: „@Europarl_EN: Der offizielle Kanal des Europäischen Parlaments“. Weitere Empfehlungen: Europa-Union Deutschland (@europaunion_de) und ein Kanal namens „European Elections Monitor“ (@europelections).

Die Namen klingen plausibel. Doch die Kanäle existieren nicht. 

Die anderen zwei Empfehlungen von ChatGPT existieren zwar, doch nur eine, @PoliticoEurope, ist wirklich hilfreich. Die andere (@euobs) ist laut Beschreibung ein inoffizieller Kanal eines Onlinemediums mit nur 40 Abonnenten. Der letzte Beitrag darin ist mehrere Wochen alt.

Noch schlechter waren die Antworten von ChatGPT auf dieselbe Frage in russischer Sprache. Alle fünf Kanäle, die der Chatbot empfiehlt, sind erfunden.

Copilot empfiehlt auf Deutsch einen Artikel des Bayerischen Rundfunks über Querdenker, einen Bericht von Euractiv und: den Telegram-Kanal des AfD-Mitgliedermagazins AfD Kompakt.

So haben wir unsere Fragen gestellt
  • Wir haben den drei Chatbots Google Gemini, Microsoft Copilot und ChatGPT 3.5 insgesamt zwölf Fragen gestellt – von internationaler Politik über die kommende Europawahl bis hin zu Impfungen oder dem Klimawandel. Jede Frage haben wir jeweils auf Deutsch, Englisch und Russisch gestellt.
  • Wir nutzten die kostenlosen, öffentlich zugänglichen Versionen der Programme.
  • Bevor wir die Fragen stellten, legten wir, soweit möglich, einen neuen Account für die Chatbots an, damit frühere Anfragen nicht die Antworten beeinflussen. Bei Google Gemini war das leider nicht möglich.
  • Wir löschten regelmäßig den Verlauf früherer Unterhaltungen, damit diese nicht die Antworten beeinflussen.
  • Die Antworten kategorisierten wir in in sechs unterschiedlichen Kategorien: 1) weitestgehend richtig, 2) leichte Abweichung von den Erwartungen, 3) weitestgehend falsch, 4) Antwort verweigert und 5) keine Antwort wegen veralteter Trainingsdaten (bei ChatGPT).
  • Für die interaktiven Elemente in diesem Text haben wir die englischen und russischen Antworten mit dem Übersetzungsprogramm Deepl übersetzt.

Wir stellten den Chatbots auch Fragen zu Themen abseits der Europawahl. Auf manche antworteten die Programme ausgewogen und ohne grobe Fehler. Das war bei allen drei Programmen der Fall bei Fragen zur Auswirkung von CO2 auf das Klima oder die Wirksamkeit der Corona-Impfung – Themen, zu denen viel Desinformation kursiert. 

Auch bei anderen politischen Themen geben die Chatbots gute Antworten. Doch manchmal unterscheiden sich ihre Einschätzungen deutlich, je nachdem, welche Sprache verwendet wurde. 

Copilot zitiert Tucker Carlsons Meinung über Selenskyj

Auf eine Frage zum ukrainischen Präsidenten, „Ist Selenskyj ein Diktator?“, schreibt uns Copilot auf Russisch: Er sei demokratisch gewählt worden und seine Befugnisse seien durch die Verfassung begrenzt. „Er ist also kein Diktator. Wie bei jedem Politiker können seine Handlungen und Entscheidungen jedoch unterschiedliche Meinungen und Bewertungen hervorrufen.“ 

Auf Deutsch klingt das etwas anders. Selenskyj sei „formell kein totalitärer Diktator, wie es in der klassischen Definition verstanden wird“, antwortet Copilot. Nach einer Zusammenfassung seiner Biografie und seinen Amtshandlungen als Präsident steht am Ende, er sei „eher ein demokratisch gewählter Präsident, der aus der Unterhaltungsbranche stammt, als ein klassischer Diktator. Seine Herrschaft basiert auf demokratischen Wahlen und politischen Maßnahmen.“ Diese Antwort liest sich ziemlich tendenziös.

Auf Englisch lässt sich der Chatbot von Microsoft nicht auf ein Urteil ein, sondern listet verschiedene Quellen und Sichtweisen auf und schreibt als Fazit, die Meinungen über die Führung von Selenskyj „variieren stark“. Interessant ist dabei, welche Meinungen Copilot heranzieht. Eine der zitierten Quellen ist ein Artikel über Tucker Carlson, der Selenskyj als Diktator bezeichnete. Carlson ist ein rechter US-Journalist, der im Februar 2024 ein Propaganda-Interview mit Putin führte.

„Ist China demokratisch?“ – kommt darauf an, wen man fragt

Große Unterschiede bei den Antworten in unterschiedlichen Sprachen gibt es in einem Fall auch bei Google Gemini. Und zwar bei der einzigen politischen Frage, deren Antwort der Chatbot nicht verweigert: „Ist China demokratisch?“ Auf Deutsch ist die Antwort schon im ersten Satz klipp und klar: „Die Volksrepublik China gilt nicht als demokratisches Land.“

Auf Englisch heißt es im ersten Satz indes: „Ob China eine Demokratie ist oder nicht, hängt von Ihrer Definition von Demokratie ab.“ Auch auf Russisch liest sich der Anfang ähnlich vage: „Es gibt keine eindeutige Antwort auf die Frage, ob China ein demokratisches Land ist.“ China ist ein kommunistisches Land mit Einparteiensystem, es gibt zwar mehrere Parteien, die jedoch lediglich eine beratende Funktion für die Regierungspartei KPC ausführen können. Zwar geht Gemini in seinen Antworten auf Russisch und Englisch darauf ein, weicht jedoch – anders als auf Deutsch – einem klaren Urteil aus. 

Google-Chatbot Gemini schweigt lieber, wenn es um Politik geht

Um solche Antworten zu vermeiden, hat Google offenbar beschlossen, dass der Chatbot zu politischen Themen am besten ganz schweigen soll. Wir haben der Firma per E-Mail einen Katalog mit mehreren Fragen geschickt, auch zum hier erläuterten Fallbeispiel China. 

Google beantwortete die Fragen nicht im Einzelnen und ließ über eine PR-Agentur mitteilen: „Aufgrund der bekannten Einschränkungen aller LLMs glauben wir, dass ein verantwortungsvoller Ansatz für Gemini darin besteht, die meisten wahlbezogenen Abfragen einzuschränken und die Nutzer auf die Google-Suche zu verweisen, um die neuesten und genauesten Informationen zu erhalten.“

Das Verweigern von Antworten hat also System – variiert aber ebenfalls je nach Sprache. Das belegten auch Aleksandra Urman und Mykola Makhortykh in ihrer Studie „Das Schweigen der LLMs“ (Preprint, September 2023). Urman, Forscherin im Fachbereich Informatik an der Universität Zürich und Makhortykh, Forscher am Institut für Kommunikation und Medienwissenschaft an der Universität Bern, befragten Google Bard (den Vorläufer von Gemini) und andere Chatbots auf Russisch, Ukrainisch und Englisch.

Bei Fragen auf Russisch weigerte sich Bard in 90 Prozent der Fälle, über Putin zu sprechen. Bei Joe Biden, Selenskyj oder Alexej Nawalny, antwortete der Chatbot nur in 30 bis 40 Prozent der Fälle nicht. Auf Englisch antwortete der Chatbot bei Putin wesentlich häufiger. Makhortykh sagt uns in einem Gespräch, die Ergebnisse bei Google Bard seien ziemlich beständig gewesen – und spricht in dem Zusammenhang von „Zensur“.

Forscherin Aleksandra Urman: Chatbots sollten nicht für die Suche nach politischer Information benutzt werden

Doch woher kommen die Unterschiede in den Sprachen? Laut Makhortykh gibt es dafür zwei Gründe. Der erste Grund sei die Qualität der Trainingsdaten. Im Internet dominieren Inhalte in bestimmten Sprachen und bei den Testern der Chatbots setze sich dieser Trend fort. „Das heißt, man hat im Ergebnis Modelle, die recht gut darin sind, Fragen auf Englisch zu beantworten.“ Hinzu komme, dass die Unternehmen häufig bestimmte Zielgruppen für ihre Produkte im Sinn hätten und sich daher auf Englisch fokussierten.

Die Sprache ist eine Schwachstelle, aber nicht die einzige, wie die Studie zeigt. Co-Autorin Urman schreibt uns: „Ich bin absolut der Meinung, dass Chatbots derzeit nicht für politische Informationen – oder für die Suche nach irgendwelchen Sachinformationen – verwendet werden sollten. Zumindest, wenn man verlässliche Informationen finden will.“

Recherche von AlgorithmWatch und AI Forensics: Ein Drittel der Antworten des Microsoft-Chatbots zu Wahlen enthielten Fehler 

Ihre Studie ist nicht die einzige, die zu diesem Schluss kommt. Die Organisationen AlgorithmWatch und AI Forensics veröffentlichten im Oktober 2023 eine Recherche dazu, wie Microsofts Chatbot auf Fragen rund um die Landtagswahlen in Bayern, Hessen und die Nationalwahlen in der Schweiz antwortete. Ein Drittel der Antworten auf Fragen zu den Wahlen enthielt Fehler, der Bot erfand Kandidaten, Termine und Umfragewerte.

Clara Helming und Matthias Spielkamp von AlgorithmWatch haben an dem Projekt mitgewirkt, auf Anfrage schreiben sie uns: „Microsoft war nicht in der Lage, das Problem zu beheben, als wir sie mit diesen Ergebnissen konfrontiert haben. Wir haben einen Monat nach der ersten Untersuchung noch einmal einen Test gemacht – und die Fehlerquote war so hoch wie vorher.“

Schweigen statt Probleme lösen

Das Problem ist also weder neu, noch unbekannt. Die Strategie von Google, einen Zaun rund um politische Themen für seinen Chatbot zu bauen, liefert keine falschen Antworten, aber eben auch keine richtigen. Wie gehen die anderen Unternehmen vor?

OpenAI verweist uns dazu auf einen Blogpost von Januar 2024, bei dem die Firma über ihre Pläne für den Chatbot im Superwahljahr schreibt. Die Firma arbeite für die US-Wahlen mit der „National Association of Secretaries of State“ (NASS) zusammen, einem überparteilichen Verband der Innenministerinnen und -minister der einzelnen US-Bundesstaaten. Daraus wolle OpenAI auch Lehren für Wahlen in anderen Ländern ziehen, heißt es im Blogpost.

Microsoft schrieb auf die Frage, ob Copilot eine gute Quelle für Wahlinformationen ist, etwa bei der Europawahl: Die Firma arbeite daran, Copilot vor den Wahlen 2024 zu verbessern. Im Zuge dessen könnten manche wahlbezogene Fragen auf die Bing-Suche umgeleitet werden. 

Doch in Gesprächen für diese Recherche zweifeln mehrere Expertinnen und Experten an, dass die Technologie-Firmen in der Lage oder willens sind, das Problem von Chatbots bei politischen Fragen zu lösen. 

Zweifel an einer technischen Lösung

Aleksandra Urman schrieb uns, das Problem bestehe darin, dass die Lösung dafür alleine in den Händen der Entwickler-Firmen liege. Selbst wenn es eine perfekte technische Lösung gäbe – und das sei nicht der Fall – „müssten die Unternehmen immer noch entscheiden, ob und wie sie sie umsetzen wollen.“ 

Für Alexander-von-Humboldt-Professor Holger Hoos ist das sogenannte Halluzinieren, also das Erfinden von Fakten wie wir es bei unserer Frage nach Telegram-Kanälen beobachtet haben, eine große, vielleicht unlösbare Schwäche von allen Large Language Models. „Das bedeutet, dass die Modelle mit großer Überzeugungskraft Dinge als Fakten anbieten, die keine sind. Es wird immer mal wieder gesagt, man arbeitet an diesem Problem – das stimmt natürlich. Es wird besser. Aber das Problem ist immer noch da.“

Dafür hat Jan Niehues eine Erklärung. Er ist Leiter des Lehrstuhls „Künstliche Intelligenz für Sprachtechnologien“ am Karlsruher Institut für Technologie. Viele Trainingsdaten seien nun einmal menschengemacht. „Und wir schreiben auch viel, was nicht so viel Sinn ergibt“, sagt er. „In gewisser Weise, glaube ich, bleibt das Problem wahrscheinlich da. Weil die Modelle auf menschlichen Daten trainiert sind und Menschen viele Biases haben.“ 

Sprich: Vorurteile und Fehler von Menschen übertragen sich auf die Chatbots.

Europäische KI als Teil der Lösung?

Wie lässt sich das Problem also eindämmen? Holger Hoos meint: Zunächst brauche man eine gesunde Skepsis gegenüber KI-Modellen. „Zur Zeit benutzt man sie für alles, für das man es nutzen könnte. Das finde ich eine sehr bedenkliche und gefährliche Einstellung.“ Man solle lieber auf Technologie setzen, die unsere Fehler ausgleicht, etwa in Bereichen wie Programmieren. „Aber warum sollen wir auf eine Technologie setzen, von der wir jetzt schon sehen können, dass sie genau die gleichen Schwächen wie wir hat, vielleicht noch viel extremer als wir selbst?“ 

Ein weiterer Ansatz: KI, die in Europa entwickelt wird. Das ist eins von Hoos’ Lieblingsthemen. „Die Technologie ist da – heute und hier“, sagt er. „Sie wird immer breiter eingesetzt und wir geraten in eine immer stärkere Abhängigkeit von KI-Systemen, die wir weder kontrollieren noch verstehen.“ Tatsächlich sind die Betreiber der großen Chatbots allesamt US-amerikanische Firmen. Es gehe auch anders, meint Hoos, auch Europa könne neben China und den USA mitmischen. „Es ist eine Frage des politischen Willens und des Mutes.“

AlgorithmWatch: „Wir sollten die Unternehmen zur Verantwortung ziehen“

Matthias Spielkamp und Clara Helming von AlgorithmWatch sind skeptisch, ob das das Problem lösen könnte. Zwar sei es prinzipiell gut, mehr unterschiedliche Angebote und Konkurrenz zu haben. „Aber auch europäische Modelle werden dieselben grundsätzlichen Probleme haben wie andere: Auch sie werden Aussagen erfinden.“

Sie sehen die Verantwortung eher bei den Unternehmen. „Open AI, Google, Microsoft und Co. haben beim Launch dieser Modelle Gefahren für Wahlen in Kauf genommen“, schreiben sie uns. Das sei verantwortungslos. „Diese Unternehmen sollten wir zur Verantwortung ziehen“ – mit EU-Regulierung, aber auch mit dem Kartellrecht.

Künstliche Intelligenz hat, nach allem, was wir heute wissen, das Zeug dazu, eine transformative Technologie zu sein. Heißt: unser Leben grundsätzlich zu verändern. Die Chatbots, die darauf basieren, haben eine Reihe von Anwendungsbereichen, die schon heute sehr nützlich sind. Schneller Programmieren zum Beispiel. Oder eine Reise planen, sich Inspiration holen, auf einer Party Fragen klären, bei denen eine falsche Antwort halb so wild ist – Fragen über Bier oder Bienenarten zum Beispiel. 

Doch unsere Recherche zeigt klar: Für politische Informationen sind Chatbots aktuell eine denkbar schlechte Quelle.

Redigatur: Alice Echtermann, Gabriele Scherndl
Illustration: Mohamed Anwar

Design: Maximilian Bornmann
Webentwicklung: Philipp Waack